ICLR 2020 | GAN是否真的判断出了数据的真假?
©PaperWeekly 原创 · 作者|武广
学校|合肥工业大学硕士生
研究方向|图像生成
论文来源:ICLR 2020
论文链接:https://arxiv.org/abs/2002.05512
代码链接:https://github.com/kam1107/RealnessGAN
GAN [1] 自提出就得到了空前反响,GAN 在逼真的图像生成方面以及处理高维数据时的灵活性上推动着包括图像,音频和视频生成的发展,更甚者在诸如强化学习、迁移学习等也展示了一定的价值。
GAN 通过生成器和判别器的博弈下达到交替更新,其核心就是模型能否鉴别数据的真实与生成并与生成器形成对抗。
在标准的 GAN 中,输入样本的真实性由判别器使用单个标量估算,也就是判别输出的是一个鉴别分数。然而诸如图像之类的高维数据,需要从多个角度认知它们,并基于多个标准来推断这幅图像是否逼真。
如图 1 所示,在拿到一张人脸肖像图时,我们可能会关注其面部结构,皮肤色调,头发纹理,甚至虹膜和牙齿等细节,它们每一个属性都代表着真实性的不同方面。此时判别器用单个标量输出鉴别结果,这是多个量度的抽象和汇总,它们共同反映了图像的整体真实性。
但是这种简洁的测量可能传达的信息不足,无法引导生成器向着正确的图像进行生成,这就可能导致在 GAN 中众所周知的模式崩溃和梯度消失的发生。
既然判别器的单标量输出是不合理的,那么怎样表示判别器的输出呢?Realness-GAN 提出了通过将逼真度视为随机变量,也就是对于判别器的输出表示为一分布而不是单个标量。
整体的架构和训练上 RealnessGAN 沿用标准 GAN 的方式,只是将判别器的输出表示为一个分布,并且在优化阶段是以分布进行度量。
将标量真实性得分扩展为分布的真实性得分,判别器 为生成器 提供了更强的指导。 RealnessGAN 的思路可以推广到一般的 GAN 中,具有较强的灵活性。
基于一个简单的 DCGAN 架构,RealnessGAN 可以成功地从头开始学习生成 分辨率的逼真的图像。
RealnessGAN原理分析
在 RealnessGAN 原理分析前,先回顾一下标准 GAN 的优化过程:
既然判别器的输出被规定为是个分布,那么如何去优化这个判别器输出呢?
类似于标准 GAN 的 0 和 1 真假标量,RealnessGAN 需要两个分布来代表判别器输出的真实和虚假图像的鉴定分布,这里的分布可不同于数据的分布,这里的分布指的是判别器的对照分布。
RealnessGAN的实施和训练
文章又提出了:
至于说哪个损失更好用,这个在实验中进行了对比。值得一说的是 RealnessGAN 提出的思想可以用在大部分的 GAN 中,只需要对损失函数进行一定的调整即可,这也展示了 RealnessGAN 的灵活性。
实验
文章首先进行了简单的实验验证模型的有效性,通过toy dataset进行验证,与基准模型进行了对比,选取了StdGAN [2]、WGAN-GP [3]、LSGAN [4] 和HingeGAN [5] 作为基准模型,得到的结果如图 2 所示。
定量上文章在 Cifar10 数据集下进行了对比实验:
▲ 图7. G的不同损失下的生成结果
总结
RealnessGAN 从分布的角度扩展了生成对抗网络的逼真性,以判别输出分布替代了标准 GAN 中的单标量判别输出,此时判别器会从多个角度估算真实性,从而为生成器提供更多信息指导。
参考文献
[1] Ledig C, Theis L, Huszár F, et al. Photo-realistic single image super-resolution using a generative adversarial network[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 4681-4690.
[2] Zhang Z, Yu J. STDGAN: ResBlock Based Generative Adversarial Nets Using Spectral Normalization and Two Different Discriminators[C]//Proceedings of the 27th ACM International Conference on Multimedia. 2019: 674-682.
[3] Gulrajani I, Ahmed F, Arjovsky M, et al. Improved training of wasserstein gans[C]//Advances in neural information processing systems. 2017: 5767-5777.
[4] Mao X, Li Q, Xie H, et al. Least squares generative adversarial networks[C]//Proceedings of the IEEE International Conference on Computer Vision. 2017: 2794-2802.
[5] Junbo Zhao, Michael Mathieu, and Yann LeCun. Energy-based generative adversarial network. InICLR, 2017.
点击以下标题查看更多往期内容:
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。